預訓練 (Pre-training)
在大規模未標註文本上訓練,讓模型學習語言的語法、語義、字詞共現等統計特性。
架構 (Architecture)
多數使用 Transformer 架構,包括注意力機制(attention)來捕捉長距離依賴(long-range dependencies)。
微調/調校 (Fine-tuning / Alignment / Prompting)
在預訓練後,可針對特定任務(如問答、翻譯、摘要等)進行微調;或使用指令/提示 (prompt) 方法調整回應風格與效果。
使用階段 (Inference / 使用者互動)
使用者給出提示(prompt),模型根據訓練中學到的分布來生成文字或回答問題。